Ηθικός πόλεμος: Η Silicon Valley λέει «όχι» στον Τραμπ για τη χρήση ΑΙ στα όπλα
Η Anthropic συγκρούεται με το Πεντάγωνο για τη χρήση AI στη στόχευση όπλων, βάζοντας ηθικές «κόκκινες γραμμές» στην κυβέρνηση Τραμπ.
Σε κατάσταση πολέμου βρίσκονται το αμερικανικό Πεντάγωνο και η εταιρεία Anthropic, που διαχειρίζεται το μοντέλο τεχνητής νοημοσύνης Claude. Η μετωπική σύγκρουση του Πενταγώνου -του αναβαπτισμένου «Υπουργείου Πολέμου»- με εταιρείες τεχνητής νοημοσύνης, όπως η Anthropic, αποκαλύπτει το βαθύ χάσμα μεταξύ ηθικής, στρατιωτικής ισχύος και εταιρικής δεοντολογίας.
Στο επίκεντρο βρίσκεται η προσπάθεια της διοίκησης Ντόναλντ Τραμπ να ενσωματώσει την τεχνητή νοημοσύνη σε αυτόνομα οπλικά συστήματα και μηχανισμούς εγχώριας επιτήρησης, παρακάμπτοντας τους ηθικούς φραγμούς των δημιουργών τους.
Σύμφωνα με δημοσίευμα του Reuters, η αιτία της ρήξης εντοπίζεται στις δικλείδες ασφαλείας που θέτει η εταιρεία, οι οποίες εμποδίζουν την αμερικανική κυβέρνηση να χρησιμοποιήσει την τεχνολογία της για την αυτόνομη στόχευση όπλων και τη διενέργεια εγχώριας παρακολούθησης εντός των ΗΠΑ.
Η συγκεκριμένη αντιπαράθεση αποτελεί την πρώτη μεγάλη δοκιμασία για το αν η Silicon Valley μπορεί πλέον να επηρεάσει τον τρόπο με τον οποίο οι αμερικανικές ένοπλες δυνάμεις αναπτύσσουν και αξιοποιούν την ισχύ της τεχνητής νοημοσύνης στο πεδίο της μάχης.
Σε αδιέξοδο το συμβόλαιο των 200 εκατομμυρίων δολαρίων
Μετά από εκτεταμένες συνομιλίες στο πλαίσιο ενός συμβολαίου που αγγίζει τα 200 εκατομμύρια δολάρια, το υπουργείο Άμυνας των ΗΠΑ και η Anthropic βρίσκονται σε πλήρες αδιέξοδο. Η στάση της εταιρείας σχετικά με τους περιορισμούς στη χρήση των εργαλείων της έχει οξύνει τη διαφωνία με τη διοίκηση Τραμπ, με λεπτομέρειες που βλέπουν για πρώτη φορά το φως της δημοσιότητας.
Αξίζει να σημειωθεί ότι η κυβέρνηση Τραμπ μετονόμασε πρόσφατα το Υπουργείο Άμυνας σε «Υπουργείο Πολέμου». Η Anthropic δήλωσε πως η τεχνολογία της «χρησιμοποιείται εκτενώς για αποστολές εθνικής ασφάλειας από την κυβέρνηση των ΗΠΑ» και πως βρίσκεται σε «παραγωγικές συζητήσεις με το υπουργείο Πολέμου για τους τρόπους συνέχισης αυτού του έργου».
Οι ανησυχίες για τη στόχευση όπλων και την κατασκοπεία
Στις συζητήσεις με κυβερνητικούς αξιωματούχους, οι εκπρόσωποι της Anthropic εξέφρασαν έντονους φόβους ότι τα εργαλεία τους τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν για:
- Κατασκοπεία Αμερικανών πολιτών
- Υποβοήθηση στη στόχευση όπλων χωρίς επαρκή ανθρώπινη επίβλεψη
Από την άλλη πλευρά, το Πεντάγωνο εμφανίζεται εξοργισμένο με τις κατευθυντήριες γραμμές της εταιρείας. Βασιζόμενοι σε υπόμνημα της 9ης Ιανουαρίου για τη στρατηγική AI, οι αξιωματούχοι του Πενταγώνου υποστηρίζουν ότι θα πρέπει να μπορούν να αναπτύσσουν εμπορική τεχνολογία AI ανεξάρτητα από τις πολιτικές χρήσης των εταιρειών, αρκεί αυτές να συμμορφώνονται με την αμερικανική νομοθεσία.
Το «ηθικό» δίλημμα και η προετοιμασία για το χρηματιστήριο
Η διαμάχη αυτή έρχεται σε μια ιδιαίτερα ευαίσθητη στιγμή για την Anthropic, καθώς η startup με έδρα το Σαν Φρανσίσκο προετοιμάζεται για την αρχική δημόσια προσφορά της (IPO) και την εισαγωγή της στο χρηματιστήριο. Η εταιρεία έχει επενδύσει σημαντικούς πόρους για να κερδίσει συμβόλαια εθνικής ασφάλειας, επιδιώκοντας ταυτόχρονα ενεργό ρόλο στη διαμόρφωση της κυβερνητικής πολιτικής για την AI.
«Η Τεχνητή Νοημοσύνη πρέπει να υποστηρίζει την εθνική άμυνα με κάθε τρόπο, εκτός από εκείνους που θα μας έκαναν να μοιάζουμε περισσότερο με τους αυταρχικούς αντιπάλους μας», έγραψε ο CEO της Anthropic, Ντάριο Αμοντέι, σε πρόσφατο άρθρο στο προσωπικό του ιστολόγιο.
Ο Αμοντέι ήταν μεταξύ των συνιδρυτών της Anthropic που άσκησαν δριμεία κριτική για περιστατικά θανατηφόρων πυροβολισμών Αμερικανών πολιτών κατά τη διάρκεια διαδηλώσεων για τη μετανάστευση στη Μινεάπολη, περιγράφοντας τα γεγονότα ως «τρόμο». Αυτά τα περιστατικά έχουν εντείνει την ανησυχία στη Silicon Valley για την πιθανή χρήση των ψηφιακών τους εργαλείων από την κυβέρνηση για την άσκηση βίας.
Παρά την τριβή, το Πεντάγωνο πιθανότατα θα χρειαστεί τη συνεργασία της Anthropic στο μέλλον. Τα μοντέλα της είναι εκπαιδευμένα να αποφεύγουν βήματα που οδηγούν σε βλάβες, και οι ίδιοι οι υπάλληλοι της εταιρείας θα ήταν εκείνοι που θα έπρεπε να «επανασχεδιάσουν» την AI για τις ανάγκες του στρατού.
Εκτός από την Anthropic, συμβόλαια με το Πεντάγωνο έχουν εξασφαλίσει επίσης η Google της Alphabet, η xAI του Έλον Μασκ και η OpenAI.
Η αποκάλυψη του Reuters για το αδιέξοδο στις συνομιλίες μεταξύ του Υπουργείου Πολέμου (όπως μετονόμασε το Πεντάγωνο η κυβέρνηση Τραμπ) και της Anthropic φέρνει στην επιφάνεια μια δομική σύγκρουση ηθικής και στρατηγικής. Η εταιρεία, παρά το γεγονός ότι διεκδικεί ηγετικό ρόλο στην αμυντική αγορά, αρνείται πεισματικά να παραχωρήσει την τεχνολογία της για αυτόνομη στόχευση όπλων και εγχώρια επιτήρηση των Αμερικανών πολιτών, θέτοντας αυστηρές δικλείδες ανθρώπινης εποπτείας.
Τα τρία σημεία-φωτιά της αντιπαράθεσης:
- Το «όχι» στη στόχευση: Η Anthropic φοβάται ότι τα εργαλεία της θα χρησιμοποιηθούν για δολοφονικά πλήγματα χωρίς την παρέμβαση ανθρώπου, κάτι που αντίκειται στον κώδικα δεοντολογίας της.
- Η απειλή για την ιδιωτικότητα: Το Πεντάγωνο πιέζει για δυνατότητες επιτήρησης που η εταιρεία θεωρεί ότι παραβιάζουν τις ατομικές ελευθερίες εντός των ΗΠΑ.
Το δόγμα Τραμπ για την στρατιωτική αξιοποίηση της τεχνητής νοημοσύνης απαιτεί από τις εταιρείες της Silicon Valley να παραδίδουν την τεχνολογία τους «άνευ όρων», εφόσον τηρείται ο νόμος, αγνοώντας τις εσωτερικές πολιτικές χρήσης των παρόχων.
Η στάση του Ντάριο Αμοντέι, CEO της Anthropic, είναι σαφής, η τεχνητή νοημοσύνη πρέπει να θωρακίζει τη δημοκρατία και όχι να την υπονομεύει υιοθετώντας πρακτικές αυταρχικών καθεστώτων. Αυτή η επιλογή ωστόσο, βάζει σε κίνδυνο την επικείμενη είσοδο της εταιρείας στο χρηματιστήριο και δίνει προβάδισμα σε ανταγωνιστές όπως η xAI του Έλον Μασκ και η OpenAI, που δείχνουν πιο πρόθυμες να ευθυγραμμιστούν με τις απαιτήσεις του Υπουργείου Πολέμου.